Nora Raab's profile

Masterthesis – Diversity & Künstliche Intelligenz

Diversity & Künstliche Intelligenz
Der Einsatz von Diversity in KI-Systemen und deren Relevanz in einer globalisierten Welt


Die Masterthesis 'Diversity & Künstliche Intelligenz' befasst sich mit den Diskriminierungsrisiken und der mangelnden Berücksichtigung von Diversität bei Entscheidungen, die von KI-Systemen getroffen werden. Das Problem: KI Systeme, die in gesellschaftspolitischen und wirtschaftlichen Kontexten genutzt werden, treffen oftmals Entscheidungen, die als diskriminierend zu bezeichnen sind, was weitreichende gesellschaftliche, aber vor allem auch individuelle Konsequenzen haben kann. Im Kern dieser Arbeit wird die These formuliert, dass ein integrativer Ansatz aus dem klassischen Design dabei helfen kann, KI Systeme zu verbessern und Diversität zu fördern.

Der Fokus dieser Arbeit beruht auf der Fragestellung, wie ein neuer Design-Ansatz für eine faire Künstliche Intelligenz geschaffen und Verzerrungen und Diskriminierung gemindert werden können. Dabei werden die 10 Thesen zu 'gutem Design' von Dieter Rahms herangezogen und in einem Experiment auf einen beispielhaften Entscheidungsprozess einer KI angewandt. Entscheidend ist hier der Anwendungsbezug der 10 Thesen von Rahms, die keine reine Designtheorie sind, sondern aus Rahms interdisziplinärem Erfahrungsspektrum als Designer hervorgegangen sind. Auf dieser Basis wird ein hypothetisches KI-Modell entworfen, das durch Reflexion und Abwägung zu einer Entscheidung kommt, die auf diversen Datensätzen basiert und nachvollziehbar wird.
Ein bekanntes Beispiel für Diskriminierungsrisiken ist die Gesichtserkennung. 
Gesichtserkennungssysteme bergen eine hohe Fehleranfälligkeit: So hatten geläufige Systeme von großen Herstellern z.B. eine hohe Fehlerrate beim Erkennen von Frauen und dunkler Haut. Eine Diskriminierung und Ungleichbehandlung durch Merkmale wie Geschlecht und Ethnie/Hautfarbe. Gesichtserkennung wird auch in der Polizeiarbeit eingesetzt. z.B. im öffentlichen Raum, um gesuchte oder verdächtige Personen zu identifizieren und Verbrechen vorherzusagen - das System 'neoface' aus London hatte in einem 6-monatigen Testraum eine Fehlerquote von 81% der festgehaltenen Personen. Ähnliches wird auch im Justizsystem beobachtet, hier bestimmen Systeme beispielsweise das Rückfallrisiko von Personen. Schwarze Personen bekommen doppelt so oft fälschlicherweise eine Bewertung für ein hohes Risiko zugeteilt, als weiße Menschen.
Überwachungstechnik in China [1]
Bilder in Leserichtung: Software prognostiziert mit Daten aus der Vergangenheit das Risiko für Wohnungseinbrüche [2]; Videoüberwachung für Predictive Policing Chicago [3], Joy Buolamwini testet Gesichtserkennungs-Software, die keine dunkle Haut erkennt [4]; Software, die Gesichter lokalisiert und sie in einer durchsuchbaren Referenzdatei speichert [5]
Solche Systeme bilden Stereotype und Vorurteile ab. Diese Verzerrungen und Voreingenommenheit nennt man auch 'Bias'. Die Legitimität solcher Systeme muss infrage gestellt werden, denn die Identität und Repräsentation von bestimmten Gruppen wird untergeordnet und negative Machtstrukturen können wieder gestärkt werden. Erfolge in der Gleichstellung können wieder zurückgeworfen werden.
Es gibt zahlreiche Versuche, das Problem in den Griff zu bekommen und damit bestimmte Nutzergruppen gegenüber anderen nicht zu benachteiligen. Um sich Lösungen einer fairen KI zu nähern, sollten die grundsätzlichen Fragen nach dem WHO, WHY und HOW gestellt werden: Sind es inklusive, diverse Teams die KI entwickeln? Wird Fairness berücksichtigen? Nutzen wir den Fortschritt der Technik, um auch für mehr Gleichheit zu sorgen und den sozialen Wandel zu unterstützen?

Es ist wichtig genau zu durchdenken, an wen sich das KI-System richtet und wie es eingesetzt wird, sowie der Korrektheit der Daten nachzugehen. Mit technischen Ansätzen kann das Problem von Diskriminierung durch Algorithmen nicht allein gelöst werden. Ungleichbehandlungen sind vor allem ein soziales und strukturelles Problem unserer Gesellschaft und entstehen nicht durch die KI selbst.
Der Fokus und die Lösungsfindung der Thesis widmet sich den '10 Thesen für gutes Design' von Dieter Rams und versucht zu klären,  welche Werte wir aus bewehrten Designstrukturen auf das KI-Design übertragen können. 

Wie kann also ein neuer Ansatz für eine faire Künstliche Intelligenz geschaffen werden, bei dem Bias und Diskriminierung gemindert werden können?
Entstanden ist ein 10-Thesen Modell, bei dem ein KI-System bei jeder Entscheidungs- und Bewertungssituation die 10 Thesen für gutes Design 'durchgeht' und eruiert, was sie in einer fairen Handlung unterstützen kann.
Das Modell verläuft in vier Schritten:
1. Behauptung:
Diese wird entweder extern vom Menschen oder intern von der KI selbst gestellt. Die Behauptung darf noch nicht zur Schlussfolgerung werden.

2. Auswahl der Thesen:
Die KI sortiert jene Thesen aus, die nicht relevant für ihren Anwendungsfall sind.

3. Evaluierung:
Die ausgewählten Thesen werden mit dem Ziel einer Schlussfolgerung oder Handlungsempfehlung geprüft.

4. Schlussfolgerung oder Handlungsempfehlung:
Das System kommuniziert seine Entscheidung und gibt die Thesen mit den Beispielen bekannt, auf deren Basis es zu einer Entscheidung gelangt ist. Die Entscheidung wird nachvollziehbar und wurde durch das Abwägen von Argumenten beantwortet.
Dieter Rams
Das entstandene Modell soll als Impuls verstanden werden, wie wir künftig im Sinne von Individuen entscheiden können. Denn es muss im Interesse einer Gesellschaft sein, dass bei Technologien, die für die Bewertung von Individuen eingesetzt werden, Entscheidungen auch möglichst ethisch vertretbar ablaufen.
Mehr Diversity für KI!
Masterthesis von Nora Raab
Hochschule Pforzheim 2021
Betreuung: Prof. Thomas Gerlach & Alexander Schönhals
_______________________________________________________________________
Originalbildquellen:
[1] https://www.faz.net/aktuell/politik/ausland/china-schafft-mit-einer-software-zur-gesichtserkennung-den-ueberwachungsstaat-15689949.html
[2] & [3] https://www.heise.de/select/ct/2017/25/1512700333136715
[4] https://www.e-flux.com/architecture/becoming-digital/248073/as-if/
[5] https://netzpolitik.org/2019/gesichtserkennung-hamburger-innenbehoerde-pfeift-auf-datenschutzbeauftragten/
Masterthesis – Diversity & Künstliche Intelligenz
Published:

Masterthesis – Diversity & Künstliche Intelligenz

Published: